查看原文
其他

英伟达芯片“叫板”英特尔之余,入局量子计算刷新霸权基准

Pin Zhang 量子客 2022-07-07




基于经典计算的模拟器对于开发量子程序的人来说非常有用,它可以演示量子计算机是如何处理程序的。
 
虽然这种方法一定程度上受限于经典计算机可以模拟的量子比特数,但其优点在于可以在内部系统上进行经典计算模拟,无需向云量子计算机提交任务。
 
且模拟可以在无错误的环境下进行,这样就可以初步开发出程序来检查基本逻辑,不需要程序员在分析运行结果时,处理那些会造成不确定性的嘈杂量子比特。
 
图1|全球量子计算格局(来源:英伟达)
 
尽管使用一台具备完全纠错功能的量子计算机也可以完成同样的事情,但该设备将需要数千个量子比特,短时间内无法提供。
 
从近期来看,为了提高这些模拟的性能,GPU (图形处理器)其他特殊处理器能够比通用处理器更有效地执行模拟。
 
这是因为量子运算可以用矩阵数学张量网络来描述,而GPU的架构可以更好地优化处理这种类型的运算。
 
基于此,英伟达发布了一款名为“cuQuantum”的软件开发工具包 (SDK) ,在英伟达最新的GPU上提供模拟功能[1][2]。
 
图2|英伟达cuQuantum(来源:英伟达)
 
该款SDK的API允许用户在Qiskit、Cirq、ProjectQ、Q#等常用框架中创建量子程序,然后在提供英伟达最新一代GPU的平台上进行模拟,目前该款SDK支持两种不同的模拟方法
 
状态矢量模拟提供了高保真度的结果,但是需要一个随量子比特数量一起增长的内存空间,且该内存空间需要限制可模拟的量子比特总数。
 
模拟张量网络会占用内存,但对模拟多量子比特数的程序保真度的要求不会过高。英伟达将继续开发此SDK,以在未来发布更多的模拟功能。
 
该方法的性能较为可观。英伟达与加州理工学院合作,用其内部超级计算机“Selene”,以与谷歌“量子霸权”相类似的深度为20的线路,模拟谷歌53量子比特的Sycamore处理器,整个模拟过程耗时9.3分钟。
 
对比之下,谷歌的“Sycamore”仅用了3分多钟,而在橡树岭的超级计算机Summit上需耗时1万年。然而,公平起见,谷歌的完整实验运行了100万次,而英伟达的“Selene”只运行了一次。
 
这样看来,相较于超级计算机Summit仍有很大进步,而且在实际GPU模拟中,由于没有嘈杂量子比特的干扰,所需的运行次数可能会更少。
 
加州理工学院的研究科学家Johnnie Gray和布伦化学教授Garnet Chan表示,通过使用Cotengra/Quimb软件包,英伟达新的软件开发工具包cuQuantum和超级计算机Selene,研究人员可以在10分钟内生成深度为20的Sycamore量子线路样本。
 
这为量子线路的模拟性能设定了基准,并将帮助研究人员提升验证量子线路行为的能力,从而推动量子计算领域的发展。
 
 
封面:
Nvidia
 
引用:
[1]https://blogs.nvidia.com/blog/2021/04/12/what-is-quantum-computing/
[2]https://developer.nvidia.com/cuquantum-sdk



声明:此文出于传递更多信息。若有错误或侵权,请联系



延 伸 阅 读

01    微软量子论文撤稿,谷歌“量子霸权”受质疑
02    国防科技大学研制新型可编程光量子计算芯片
03    最大芯片厂商英特尔推出新一代量子控制芯片
04    数字量子计算实现关键性2量子比特门的里程碑
05    硅量子比特相干时间以数量级跃居超导
06    量子点成为量子计算“拉锯战”中新的佼佼者

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存